t元j 一、什么是凸函數 對於一元函數\(f(x\)),如果對於任意\(t\epsilon[0,1]\)均滿足:\(f(tx_1 + (1-t)x_2) \leq tf(x_1) + (1-t) ...
t元j 一、什么是凸函數 對於一元函數\(f(x\)),如果對於任意\(t\epsilon[0,1]\)均滿足:\(f(tx_1 + (1-t)x_2) \leq tf(x_1) + (1-t) ...
二分~多分~Softmax~理預 一、簡介 在二分類問題中,你可以根據神經網絡節點的輸出,通過一個激活函數如Sigmoid,將其轉換為屬於某一類的概率,為了給出具體的分類結果,你可以取0.5作為 ...
一、你知道聚類中度量距離的方法有哪些嗎? 1)歐式距離 歐氏距離是最易於理解的一種距離計算方法,源自歐氏空間中兩點間的距離公式。即兩點之間直線距離,公式比較簡單就不寫了 應用場景:適用於求 ...
一、題目簡述 假設樣本服從正態分布:\(N(\mu,\sigma^2)\),寫出似然估計的期望和方差 極大似然函數是什么意思呢? 1)寫出似然函數 2)取對數 ...
(定義,舉例,實例,問題,擴充,采樣,人造,改變) 一、不平衡數據集 1)定義 不平衡數據集指的是數據集各個類別的樣本數目相差巨大。以二分類問題為例,假設正類的樣本數量遠大於負類的樣本數量 ...
信道壓縮~通~通~減 一、1 X 1的卷積核作用 所謂信道壓縮,Network in Network是怎么做到的? 對於如下的二維矩陣,做卷積,相當於直接乘以2,貌似看上去沒什么意義: ...
什么~為什么~哪些(RSST) 一、什么是激活函數 如下圖,在神經元中,輸入的 inputs 通過加權,求和后,還被作用了一個函數,這個函數就是激活函數 Activation Function: ...
一、相同點 第一,LR和SVM都是分類算法(SVM也可以用與回歸) 第二,如果不考慮核函數,LR和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的。 這里要先說明一點,那就是L ...
一、常見的損失函數 常見的損失函數見這里:https://www.cnblogs.com/always-fight/p/9099704.html 二、關於經驗風險和結構風險最小化 模型 ...